Data Centers are huge power consumers, both because of the energy required for computation and the cooling needed to keep servers below thermal redlining. The most common technique to minimize cooling costs is increasing data room temperature. However, to avoid reliability issues, and to enhance energy efficiency, there is a need to predict the temperature attained by servers under variable cooling setups. Due to the complex thermal dynamics of data rooms, accurate runtime data center temperature prediction has remained as an important challenge. By using Gramatical Evolution techniques, this paper presents a methodology for the generation of temperature models for data centers and the runtime prediction of CPU and inlet temperature under variable cooling setups. As opposed to time costly Computational Fluid Dynamics techniques, our models do not need specific knowledge about the problem, can be used in arbitrary data centers, re-trained if conditions change and have negligible overhead during runtime prediction. Our models have been trained and tested by using traces from real Data Center scenarios. Our results show how we can fully predict the temperature of the servers in a data rooms, with prediction errors below 2 C and 0.5 C in CPU and server inlet temperature respectively.
translated by 谷歌翻译
This work presents a set of neural network (NN) models specifically designed for accurate and efficient fluid dynamics forecasting. In this work, we show how neural networks training can be improved by reducing data complexity through a modal decomposition technique called higher order dynamic mode decomposition (HODMD), which identifies the main structures inside flow dynamics and reconstructs the original flow using only these main structures. This reconstruction has the same number of samples and spatial dimension as the original flow, but with a less complex dynamics and preserving its main features. We also show the low computational cost required by the proposed NN models, both in their training and inference phases. The core idea of this work is to test the limits of applicability of deep learning models to data forecasting in complex fluid dynamics problems. Generalization capabilities of the models are demonstrated by using the same neural network architectures to forecast the future dynamics of four different multi-phase flows. Data sets used to train and test these deep learning models come from Direct Numerical Simulations (DNS) of these flows.
translated by 谷歌翻译
可以部署一组合作的空中机器人,以有效地巡逻地形,每个机器人都会在指定区域飞行,并定期与邻居共享信息,以保护或监督它。为了确保鲁棒性,以前对这些同步系统的作品提出了将机器人发送到相邻区域的情况,以防它检测到故障。为了处理不可预测性并提高确定性巡逻计划的效率,本文提出了随机策略,以涵盖在代理之间分配的领域。首先,在本文中针对两个指标进行了对随机过程的理论研究:\ emph {闲置时间},这是两个连续观察到地形的任何点和\ emph {隔离时间}之间的预期时间,预期的时间},预期的时间机器人没有与任何其他机器人通信的时间。之后,将随机策略与添加另一个指标的确定性策略进行了比较:\ emph {广播时间},从机器人发出消息的那一刻,直到团队的所有其他机器人收到消息。模拟表明,理论结果与模拟和随机策略的表现非常吻合,其行为与文献中提出的确定性协议获得的行为相比。
translated by 谷歌翻译
我们介绍了IST和Unmabel对WMT 2022关于质量估计(QE)的共享任务的共同贡献。我们的团队参与了所有三个子任务:(i)句子和单词级质量预测;(ii)可解释的量化宽松;(iii)关键错误检测。对于所有任务,我们在彗星框架之上构建,将其与OpenKIWI的预测估计架构连接,并为其配备单词级序列标记器和解释提取器。我们的结果表明,在预处理过程中合并参考可以改善下游任务上多种语言对的性能,并且通过句子和单词级别的目标共同培训可以进一步提高。此外,将注意力和梯度信息结合在一起被证明是提取句子级量化量化宽松模型的良好解释的首要策略。总体而言,我们的意见书在几乎所有语言对的所有三个任务中都取得了最佳的结果。
translated by 谷歌翻译
我们研究了图结构识别的问题,即在时间序列之间恢复依赖图的图。我们将这些时间序列数据建模为线性随机网络动力学系统状态的组成部分。我们假设部分可观察性,其中仅观察到一个包含网络的节点子集的状态演变。我们设计了一个从观察到的时间序列计算的新功能向量,并证明这些特征是线性可分离的,即存在一个超平面,该超平面将与连接的节点成对相关的特征群体与与断开对相关的节点相关联。这使得可以训练各种分类器进行因果推理的功能。特别是,我们使用这些功能来训练卷积神经网络(CNN)。由此产生的因果推理机制优于最先进的W.R.T.样品复杂性。受过训练的CNN概括了结构上不同的网络(密集或稀疏)和噪声级别的轮廓。值得注意的是,他们在通过合成网络(随机图的实现)训练时也很好地概括了现实世界网络。最后,提出的方法始终以成对的方式重建图,也就是说,通过确定每对相应的时间序列中的每对节点中是否存在边缘或箭头或不存在箭头。这符合大规模系统的框架,在该系统中,网络中所有节点的观察或处理都令人难以置信。
translated by 谷歌翻译
可激发的光电设备代表了在神经形态(脑启发)光子系统中实施人工尖峰神经元的关键构件之一。这项工作介绍并实验研究了用谐振隧穿二极管(RTD)构建的光电 - 光学(O/E/O)人工神经元,该神经元(RTD)耦合到光电探测器作为接收器和垂直腔表面发射激光器作为发射机。我们证明了一个明确定义的兴奋性阈值,在此上面,该神经元在该神经元中产生100 ns的光学尖峰反应,具有特征性的神经样耐受性。我们利用其粉丝功能来执行设备中的重合检测(逻辑和)以及独家逻辑或(XOR)任务。这些结果提供了基于RTD的Spiking光电神经元的确定性触发和任务的首次实验验证,并具有输入和输出光学(I/O)终端。此外,我们还从理论上研究了拟议系统的纳米光子实施的前景,并结合了纳米级RTD元素和纳米剂的整体设计。因此,在未来的神经形态光子硬件中,证明了基于RTD的综合兴奋节点对低足迹,高速光电尖峰神经元的潜力。
translated by 谷歌翻译
卷积和复发性神经网络的结合是一个有希望的框架,它允许提取高质量时空特征以及其时间依赖性,这是时间序列预测问题(例如预测,分类或异常检测)的关键。在本文中,引入了TSFEDL库。它通过使用卷积和经常性的深神经网络来编译20种时间序列提取和预测的最先进方法,用于在多个数据挖掘任务中使用。该库是建立在AGPLV3许可下的一组TensorFlow+Keras和Pytorch模块上的。本提案中包含的架构的性能验证证实了此Python软件包的有用性。
translated by 谷歌翻译
音乐转录涉及音乐源转化为结构化数字格式,是音乐信息检索(MIR)的关键问题。当用计算术语解决这一挑战时,MIR社区遵循两条研究:音乐文档,这是光学识别(OMR)或录音的情况,这就是自动音乐转录(AMT)的情况。上述输入数据的不同性质使这些字段的条件以开发特定于模式的框架。但是,它们在序列标记任务方面的最新定义导致了共同的输出表示形式,从而可以对合并范式进行研究。在这方面,多模式图像和音频音乐转录包括有效结合图像和音频方式传达的信息的挑战。在这项工作中,我们在后期融合级别探讨了这个问题:我们研究了四种组合方法,以便首次合并基于晶格的搜索空间中有关端到端OMR和AMT系统的假设。一系列性能场景获得的结果(相应的单模式模型产生了不同的错误率)显示了这些方法的有趣好处。此外,四种策略中的两种认为显着改善了相应的单峰标准识别框架。
translated by 谷歌翻译
预测Twitter等社交媒体用户的地理位置已经发现了几种在健康监测,紧急监测,内容个性化和社会研究中的应用。在这项工作中,我们通过设计和评估基于加权多层的文献的新方法对该领域的研究有助于与最先进的深度学习技术相结合。探索的方法从类似的底层结构(扩展提及和/或跟随网络)出发,而是使用不同的信息处理策略,例如,通过转换和归纳算法 - RGCNS和GraphSage的信息扩散,以及节点嵌入node2vec +。然后,这些图形与注意机制结合到将用户的文本视图结合到模型中。我们评估每个方法的性能,并将它们与基线模型进行比较,在公开的推特 - 美国数据集中;我们还根据拉丁美洲的大型Twitter捕获,提供新的数据集。最后,我们的工作讨论了在不同标签定义和指标的背景下的方法中的比较的局限性和有效性。
translated by 谷歌翻译
我们研究了估计多元高斯分布中的精度矩阵的问题,其中所有部分相关性都是非负面的,也称为多变量完全阳性的顺序阳性($ \ mathrm {mtp} _2 $)。近年来,这种模型得到了重大关注,主要是由于有趣的性质,例如,无论底层尺寸如何,最大似然估计值都存在于两个观察。我们将此问题作为加权$ \ ell_1 $ -norm正常化高斯的最大似然估计下$ \ mathrm {mtp} _2 $约束。在此方向上,我们提出了一种新颖的预计牛顿样算法,该算法包含精心设计的近似牛顿方向,这导致我们具有与一阶方法相同的计算和内存成本的算法。我们证明提出的预计牛顿样算法会聚到问题的最小值。从理论和实验中,我们进一步展示了我们使用加权$ \ ell_1 $ -norm的制剂的最小化器能够正确地恢复基础精密矩阵的支持,而无需在$ \ ell_1 $ -norm中存在不连贯状态方法。涉及合成和实世界数据的实验表明,我们所提出的算法从计算时间透视比最先进的方法显着更有效。最后,我们在金融时序数据中应用我们的方法,这些数据对于显示积极依赖性,在那里我们在学习金融网络上的模块间值方面观察到显着性能。
translated by 谷歌翻译